53 research outputs found

    Optimal receiving M-ary signals with the Markov property

    Get PDF
    The rule for determining the discrete Markov information parameter M-ary signal is determined. Optimal receiving M-ary signals with the Markov property is developed. Receiving is based on the statistical dependence of the values of the information parameter the neighboring elements coded signals.Определено оптимальное правило выделения дискретного марковского информационного параметра сигналов из смеси кодированных M-ичных сигналов и аддитивного стационарного шума. Разработана процедура асимптотически оптимального приема в целом многопозиционных сигналов с марковским свойством. Процедура базируется на учете статистической зависимости значений информационного параметра соседних элементов сложных кодированных сигналов

    Automation of resource management in information systems based on reactive vertical scaling

    Get PDF
    The rapid development of information systems creates new challenges for developers. The problem of minimizing the use of IT infrastructure resources while ensuring the agreed level of service is one of the critical ones in the existing conditions. The article is devoted to the research of existing automation methods of resource management and QoS indicators. Capabilities of managing computing resources in Kubernetes and in general are analyzed. The work provides a detailed analysis of reactive and proactive approaches, their advantages and disadvantages. Considerable attention is paid to vertical scaling, in particular to the open-source Vertical Pod Autoscaler solution. A series of experiments was performed to analyze the effectiveness of this approach in various conditions. Based on the results, the appropriate use cases for using VPA were determined. In addition, the work proposes a hybrid approach, which includes a reactive and proactive component, which allows you to use the advantages of both methods

    Прогнозування короткочасних даних для крипторинку

    Get PDF
    Розвиток криптовалют та криптобірж викликає необхідність розроблення різноманітних інформаційних технологій, необхідних для створення інструментарію аналізу, торгівлі, а також для автоматизації інших бізнес-процесів у фінансових установах. Інструменти аналізу дозволяють досліджувати ринок, виявляти його тренди, відстежувати динаміку цін. Функціонал засобів аналізу дозволяє будувати графіки динаміки цін, здійснювати технічний аналіз, створювати індикатори та отримувати інші результати аналізу даних криптовалютного ринку. Інструментарії аналізу та торгівлі дозволяють користувачам ефективно працювати на криптобіржах та забезпечують їм можливість отримати прибуток від торгівлі криптовалютами з меншими ризиками. Для ефективної торгівлі важливо постійно відстежувати курс криптовалюти та швидко приймати рішення щодо її продажу або купівлі. Один з основних підходів до торгівлі заснований на використанні алгоритму високочастотної торгівлі. Такий алгоритм здійснює прогноз на декілька секунд уперед та використовує результати прогнозу для швидкого відкриття або закриття позицій. Високої швидкості виконання операцій можна досягнути за умов автоматизації процесу здійснення транзакцій. Розглянуто застосування методів експоненційного згладжування для короткочасного прогнозування ціни на криптобіржах. Для оцінки прогнозу ціни на криптовалюту було використано три методи: точність прогнозування тренду, RMSE та MAPE. Дослідження проведені на даних криптобіржі Binance для символу BTCUSDT. Методи експоненційного згладжування перевірені на різних діапазонах даних розміру вікна та коефіцієнту. Здійснено порівняння статистичних даних короткочасного прогнозування ціни на криптобіржі, отриманих застосуванням кожного з трьох методів. За результатами дослідження встановлено, що прогноз ціни методом простого експоненційного згладжування дає найкращий результат порівняно з іншими досліджуваними методами для обраного проміжку часу. Бібл. 9, іл. 13, табл.

    The Approach Of ontological Stratification In It Infrastructure For Quality Of It Service Management

    Get PDF
    The common service-based approach to distinguishing hierarchical layers for service level management in IT infrastructure covers only discrete scopes of IT infrastructure and is very general. As a result, it can be applied to any kind of IT infrastructure. However, coordination between scopes can miss some parameters which may be crossed among the layers. Moreover, such approach does not consider peculiarities of specific domains. In order to fix this problem, it is suggested to introduce the ontology of domain area and to extend service-based stratification with domain-specific definitions. Also, in accordance to domain each general-based service such as infrastructure or platform as a service can be extended to cover interlinked dependencies between layers. For the purpose of quality of service management an approach of statistical process control is used

    Платформа підтримки життєвого циклу сервісів в інформаційних системах провайдерів інформаційно-комунікаційних послуг

    Get PDF
    Об’єктом дослідження є процеси підтримки життєвого циклу сервісів в інформаційних системах провайдерів інформаційно-комунікаційних послуг. Мета полягає у підвищенні ефективності управління життєвим циклом сервісів в інформаційних системах провайдерів інформаційно-комунікаційних послуг за рахунок створення платформи підтримки життєвого циклу сервісів. Сформульована проблема управління життєвим циклом сервісів в інформаційних системах провайдерів інформаційно-комунікаційних послуг. В процесі аналізу існуючих підходів до вирішення сформульованої вище розглянуто відомі платформи, що надають інструменти для підтримки усіх етапів життєвого циклу сервісів. При цьому акцент зроблено на концептуальних засадах платформ, аналізі використовуваних платформами технологій, моделях і методах, покладених в основу їх створення. Обґрунтовано доцільність вирішення проблеми управління життєвим циклом сервісів в інформаційних системах провайдерів інформаційно-комунікаційних послуг на основі комплексного рішення для аналізу, проектування і управління життєвого циклу сервісів і їх ефективного використання, яке здатне інтегрувати усі чинники впливу і реалізоване у вигляді платформи підтримки життєвим циклом сервісів в інформаційних системах провайдерів інформаційно-комунікаційних послуг. Запропонована концепція платформи підтримки життєвого циклу сервісів. У сучасних умовах розвитку галузі інформаційних технологій в основу створення платформи, з одного боку, покладені перевірені ідеї, які добре себе показали в існуючих платформах, з іншого боку, сформульовані нові ідеї, обумовлені потребами розвитку сфери надання інформаційно-комунікаційних послуг. Процеси платформи підтримки життєвого циклу сервісів в інформаційних системах провайдерів інформаційно-комунікаційних послуг визначені на основі процесів підтримки традиційних етапів життєвого циклу сервісів E2E з урахуванням процесів, яких вимагають комплексна модель організаційної зрілості (Capability Maturity Model Integration), використовувана для сертифікації організацій і компаній галузі інформаційних технологій, підхід Evergreen та концепції інтегрованості платформи і керованих сервісів. Розроблена архітектура зазначеної платформи і описаний підхід до її реалізації. При побудові складових платформи, визначенні їх взаємодії, організації функціонування інструментального комплексу використані сучасні підходи до створення програмних систем, методологія аналізу і проектування інформаційних систем, сучасні інформаційні технології. Бібл. 30, іл.

    Управление системами хранения данных

    Get PDF
    Розглянуті аспекти управління багаторівневими системами збереження даних (СЗД). Розроблені математичні моделі для задач кластеризації та управління ресурсами СЗД. Розроблені генетичний та евристичний алгоритми для розв’язання задачі розподілення ресурсів СЗД за критерієм мінімізації витрат на збереження даних. Наведені результати експериментальних досліджень ефективності алгоритмів для СЗД різних об’єктів при широкому діапазоні потреб користувачів у ресурсах збереження. Запропоновані рекомендації щодо використання запропонованих алгоритмів для розв’язання задачі управління СЗД в інформаційно-телекомунікаційних системах.The problems of effective management of tiered storage area network (SAN) are considered. The main independent variables and criteria for the operation SAN are defined. The criterion for selecting SAN management subsystem is proposed. The functional should covered with the SAN management subsystem is defined. Mathematical models for distribution users between SAN resources and management of tiered SAN resources are proposed. Genetic and heuristic algorithms for solving the problem of minimizing storage costs are proposed. The experimental results for different groups of tasks are given. It is shown that the genetic algorithm allows find a more effective solution than a heuristic algorithm. The average time spending on distribution of data depending on the dimension of the problem is estimated. The heuristic algorithm finds a solution faster than the genetic algorithm, but gives a less accurate result.Рассмотрены проблемы управления многоуровневыми системами хранения данных (СХД). Разработаны математические модели для задач кластеризации и управления ресурсами СХД. Разработаны генетический и эвристический алгоритмы для решения задачи распределения ресурсов СХД по критерию минимизации затрат на хранение данных. Приведены результаты экспериментальных исследований эффективности алгоритмов для СХД различных объектов при широком диапазоне потребностей пользователей в ресурсах хранения. Предложенные рекомендации по использованию предложенных алгоритмов для решения задачи управления СХД в информационно-телекоммуникационных системах

    Storage and display curricula of the department using diagram’s view for web application “IST Syllabi”

    Get PDF
    Curricula and syllabus – are the main parts of each educational process in every institute, university, school etc., as so there are a lot of materials, research exist for creating methods of clarification curricula and best representation of syllabi for each person related to educational process or who will be involved in the future. Syllabi defines the mainstream and provides all necessary information for each discipline and for curricula. In educational process very important to have fast mechanism to search syllabus for each discipline, but not only. As syllabuses are strongly connected to curricula, we need a curricula management system to be implemented as well. Among all semesters, specialty, courses, forms and other data provide for curricula mechanism to monitor not only schedule, but department program needs to be developed. The main task of educational units is not only to facilitate the work of the teaching staff, timely provision of students with the necessary information on training, as well as improving the interaction of departments and institutes with each other, but to clarify educational process as well. You can cope with this task by creating a resource that will contain updated, relevant data on curricula in various disciplines studied at the departments. With this service, all students, teachers, and others have the opportunity to learn all the current and past curricula of each stream and semester. An important task is to navigate and correctly represent syllabus information and it better to be done as WIKI-document – wellstructured, referenced and quick navigation inside of text. Current material provides a mechanism to demonstrate curriculum diagram for some department for each year of education. Based on modern technology mechanism was implemented in Faculty of Informatics and Computer Science of the National Technical University of Ukraine “Igor Sikorsky Kyiv Polytechnic Institute” department of Information Systems and Technologies WEB-site and added quick search, using main attributes to monitor necessary syllabi as well. The system includes partially syllabus and curricula management system elements. For using WIKI-document view markdown structured document was used to generate each syllabus for provided system

    Моделирование управления потоками данных в корпоративных IP-сетях

    Get PDF
    Розглянуто моделі трьох методів управління мережевим трафіком, що забезпечують недопущення перевантажень телекомунікаційних каналів. В основу апаратної моделі лягла технологія обмеження потоків даних через мережеві вузли. Програмна модель є регулятором, який на основі порівняння вхідного та бажаного значень завантаженості каналів виробляє команди для джерел трафіку. Третя модель використовує методи теорії автоматичного управління для обмеження потоків трафіку, а саме оптимальний по швидкодії регулятор. Наводиться структура і опис всіх цих моделей, а також проаналізовані переваги та недоліки кожної з моделей за такими критеріями: швидкодія регулятора, тобто швидкість, з якою регулятор виробляє необхідну керуючу дію; вплив затримок передачі даних на своєчасність регулюючої дії; види трафіку, які здатен регулювати регулятор; простота розрахунку та реалізації регулятора; ефективне використання наявних мережевих ресурсів.Three network traffic management models preventing telecommunication links overloads have been considered here. Hardware model is based upon limitation of data streams flowing through network nodes. Program model is presented by a controller which by means of comparing input and desired values of channel load generates commands for the traffic sources. The third model uses the methods of automatic control theory to manage the flow of traffic, in particular the regulator with optimal performance. The structure and description of all models, as well as the advantages and disadvantages of each model, by such criteria: speed of controller (the speed with which the controller produces management commands); the impact of data transferring delays on the timeliness of the managing; types of traffic which can be managed by the controller; simplicity of controller's calculation and implementation; effective use of available network resources, are included.Рассмотрены модели трех методов управления сетевым трафиком, которые обеспечивают недопущение перегрузок телекоммуникационных каналов. В основу аппаратной модели легла технология ограничения потоков данных, проходящих через сетевые узлы. Программная модель является регулятором, который на основе сравнения входного и желаемого значений загруженности каналов вырабатывает команды для источников трафика. Третья модель использует методы теории автоматичного управления для ограничения потоков трафика, а именно оптимальный по быстродействию регулятор. Приводится структура и описание всех этих моделей, а также проанализированы преимущества и недостатки каждой моделей по следующим критериям: быстродействие регулятора, то есть скорость, с которой регулятор вырабатывает необходимое управляющее воздействие; влияние задержек передачи данных на своевременность регулирующего воздействия; виды трафика, которые способен ограничивать регулятор; простота расчета и реализации регулятора; эффективное использование имеющихся сетевых ресурсов

    О ВОЗМОЖНОСТИ СОВЕРШЕНСТВОВАНИЯ КОНСЕРВАЦИИ ДОНОРСКИХ РОГОВИЦ ПУТЕМ ПРИМЕНЕНИЯ РЕГУЛЯТОРНЫХ ПЕПТИДОВ

    Get PDF
    It was analyzed traditional and modern types of cadaveric donor corneas preservation for penetrating kerato- plasty, descemet stripping endothelial keratoplasty and descemet membrane endothelial keratoplasty. It was described the possibility of corneal damage decreasing and increasing of efficient corneal endothelia cells pre- serving by using regulatory peptides into preserving medium. It was emphasized the main role of peptide drugs as new generation revitalizers for preserving viability of endothelial cells. В статье проанализированы традиционные и современные методы консервации трупных донорских ро- говиц, предназначенных для сквозной и задней послойной кератопластики. Обсуждается перспектива ослабления повреждающих эффектов гипотермии на ткани роговицы и повышения эффективности со- хранения монослоя эндотелиальных клеток путем включения биорегуляторных пептидов в составы кон- сервирующих сред. Подчеркивается важная роль использования пептидных препаратов – ревитализато- ров нового поколения – для сохранения витальных свойств эндотелиальных клеток.

    Методи та компоненти обробки природної мови

    No full text
    A dramatic change in the abilities of language models to provide state of the artaccuracy in a number of Natural Language Processing tasks is currently observed. These improvements open a lot of possibilities in solving NLP downstream tasks. Such tasks include machine translation, speech recognition, information retrieval, sentiment analysis, summarization, question answering, multilingual dialogue systems development and many more. Language models are one of the most important components in solving each of the mentioned tasks. This paper is devoted to research and analysis of the most adopted techniques and designs for building and training language models that show a state of the art results. Techniques and components applied in creation of language models and its parts are observed in this paper, paying attention to neural networks, embedding mechanisms, bidirectionality, encoder anddecoder architecture, attention and self-attention, as well as parallelization through using Transformer. Results: the most promising techniques imply pre-training and fine-tuning of a language model, attention-based neural network as a part of model design, and a complex ensemble of multidimensional embeddings to build deep context understanding. The latest offered architectures based on these approaches require a lot of computational power for training language model and it is a direction of further improvement.Ref. 49, pic. 13В настоящее время языковые модели позволяют обеспечивать высокуюточность при решении ряда задач обработки естественного языка (naturallanguage processing – NLP). К таким задачам относятся – машинный перевод, распознавание речи, поиск информации, анализ настроений, обобщение, ответы на вопросы, разработка многоязычных диалоговых систем и многое другое. Статья посвящена исследованию и анализу наиболее распространенных в настоящее время методов и конструкций для построения и обучения языковых моделей, которые позволяют получить лучшие результаты. Рассматриваются методы и компоненты, применяемые при создании языковых моделей и их частей. Особое внимание уделяется рекуррентным нейронным сетям, механизмам представления словарей, архитектуре «кодера» и «декодера», концепции «внимания», а также распараллеливанию с использованием «Transformer». Установлено, что наиболее многообещающими методами являются: предварительное обучениемоделей на больших массивах данных с последующей тонкой настройкой; нейронные сети, основанные на внимании, как части дизайна модели; сложный ансамбль многомерных представлений словарей для построения глубокого понимания контекста. Архитектуры, основанные на этих подходах, требуют большой вычислительной мощности для обучения моделей, что определяет направление дальнейших исследований.Библ. 49, ил. 13В даний час мовні моделі дозволяють забезпечувати високу точність привирішенні ряду задач обробки природної мови (natural language processing – NLP). До таких завдань відносяться – машинний переклад, розпізнавання мови, пошук інформації, аналіз настроїв, узагальнення, відповіді на питання, розробка багатомовних діалогових систем і багато іншого. Стаття присвячена дослідженню та аналізу найбільш поширених в даний час методів і конструкцій для побудови і навчання мовних моделей, які дозволяють отримати найкращі результати. Розглядаються методи та компоненти, що застосовуються при створенні мовних моделей та їх частин. Особлива увага приділяється рекурентним нейронним мережам, механізмам представлення словників, архітектурі «кодера» і «декодера», концепції «уваги», а також розпаралелюванню з використанням «Transformer». Встановлено, що найбільш перспективними методами є: попереднє навчання моделей навеликих масивах даних з подальшою тонкою настройкою; нейронні мережі, засновані на увазі, як частині дизайну моделі; складний ансамбль багатовимірних представлень словників для побудови глибокого розуміння контексту. Архітектури, засновані на цих підходах, вимагають великої обчислювальної потужності для навчання моделей, що визначає напрямок подальших досліджень.Бібл. 49, іл. 1
    corecore